首页> 外文OA文献 >An Automatic Approach for Document-level Topic Model Evaluation
【2h】

An Automatic Approach for Document-level Topic Model Evaluation

机译:文档级主题模型评估的自动化方法

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Topic models jointly learn topics and document-level topic distribution.Extrinsic evaluation of topic models tends to focus exclusively on topic-levelevaluation, e.g. by assessing the coherence of topics. We demonstrate thatthere can be large discrepancies between topic- and document-level modelquality, and that basing model evaluation on topic-level analysis can be highlymisleading. We propose a method for automatically predicting topic modelquality based on analysis of document-level topic allocations, and provideempirical evidence for its robustness.
机译:主题模型可以共同学习主题和文档级别的主题分布。主题模型的外部评估往往只专注于主题级别的评估,例如通过评估主题的连贯性。我们证明,主题级别和文档级别的模型质量之间可能存在较大差异,并且基于主题级别分析的模型评估可能会产生高度误导性。我们提出了一种基于对文档级主题分配的分析来自动预测主题模型质量的方法,并为其鲁棒性提供了经验证据。

著录项

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号